هشدار یک کارشناس رایانه: هوش مصنوعی مهارناپذیر است

مهارهای موجود برای محافظت از ما در برابر جامعه‌ای که هوش مصنوعی در حال تغییر دادن آن است، کفایت نمی‌کند

رباتی که در حال سامان دادن به کارها است‌ــ Canva

یک کارشناس ادعا می‌کند هیچ مدرکی وجود ندارد که اثبات کند مهار و ایمن‌سازی هوش مصنوعی ممکن است.

رومن وی یامپولسکی، یک دانشمند کامپیوتر روس از دانشگاه لویی‌ویل، گفت که حتی کنترل‌های جزئی هم برای محافظت از ما در برابر جامعه‌ای که هوش مصنوعی در حال تغییر دادن آن است، کفایت نمی‌کند.   

دکتر یامپولسکی گفت به منظور اطمینان از اینکه هوش مصنوعی ما را به مخاطره نمی‌اندازد، هیچ گزینه‌ای نباید از روی میز حذف شود.

او گفت بعد از بررسی دقیق متون علمی موجود، که به‌زودی در [قالب] کتاب منتشر می‌شود، به این نتیجه رسیده است.

دکتر یامپولسکی در بیانیه‌ای گفت: «ما با رویدادی تقریبا حتمی مواجهیم که احتمال دارد فاجعه‌ای وجودی پدید آورد. بی‌دلیل نیست که خیلی‌ها این را مهم‌ترین مشکل بشریت تا به امروز قلمداد می‌کنند.»

«نتیجه [این رویداد] می‌تواند شکوفایی یا انقراض باشد و سرنوشت جهان نامعلوم است.»

پژوهش‌های مربوط به آن کتاب‌ــ هوش مصنوعی (AI): توضیح‌ناپذیر، پیش‌بینی‌ناپذیر، مهارناپذیر‌ــ نشان داد که «هیچ مدرک» و «هیچ دلیلی» وجود ندارد که نشان دهد می‌توان مشکل هوش مصنوعی مهارناپذیر را واقعا حل کرد.

Read More

This section contains relevant reference points, placed in (Inner related node field)

او می‌گوید از آنجا که به نظر می‌رسد مهار کامل هیچ هوش مصنوعی میسر نیست، مهم است که «برای ایمنی در مقابل هوش مصنوعی تلاشی چشمگیر» صورت بگیرد تا مطمئن شویم در حد امکان امن است.

اما حتی در این صورت، ممکن است محافظت از جهان در برابر آن مخاطرات ممکن نباشد: چرا که با افزایش توانایی هوش مصنوعی، فرصت‌های بیشتری برای نقص‌ ایمنی پدید می‌آید، بنابراین امکان محافظت در برابر هر خطری امکان‌پذیر نخواهد بود.

افزون بر این، بسیاری از این سامانه‌های هوش مصنوعی نمی‌توانند توضیح دهند چگونه به آن نتایج رسیده‌اند. چنین فناوری اکنون در سامانه‌هایی همچون مراقبت‌های بهداشتی و بانکداری کاربرد دارد‌ــ اما ممکن است نتوانیم بفهمیم آن تصمیم‌های مهم واقعا چگونه اتخاذ شده‌اند.

دکتر یامپولسکی در بیانیه‌ای گفت: «چنانچه به پذیرش پاسخ‌های بدون توضیح هوش مصنوعی عادت کنیم و آن را از اساس به مثابه یک سیستم اوراکل (Oracle system) [سیستم مدیریت پایگاه داده‌ با ساختاری قدرتمند که از پایگاه‌های داده به صورت هم‌زمان پشتیبانی می‌کند] در نظر بگیریم، نمی‌توانیم بگوییم آیا دارد پاسخ‌های اشتباه یا دستکاری‌شده می‌دهد یا خیر.»

او تاکید کرد حتی سیستمی که دقیقا برای پیروی از دستورهای انسانی ساخته شده، ممکن است با مشکل مواجه شود: ممکن است آن دستورها همدیگر را نقض کنند، سیستم ممکن است آن‌ها را اشتباه تفسیر کند یا ممکن است از آن سوءاستفاده شود.

اگر از هوش مصنوعی به شکل مشاوره‌ای استفاده کنیم و تصمیم‌گیرنده انسان باشد، می‌توان جلو این امر را گرفت. اما [هوش مصنوعی] برای این کار به ارزش‌های برتر متمایزی [که به طور خاص برای آن تعریف شده باشند] نیاز دارد تا به بشر درباره آن مشاوره بدهد.

دکتر یامپولسکی گفت: «تناقض هوش مصنوعی همسوشده با ارزش‌های [انسانی] این است که شخصی که به‌صراحت به سیستم هوش مصنوعی اجرای کاری را دستور می‌دهد، جواب نه بگیرد؛ در حالی که این سیستم تلاش می‌کند آنچه را شخص واقعا می‌خواهد انجام بدهد. یا از انسان‌مدار بودن محافظت می‌شود یا احترام [به هوش مصنوعی به عنوان یک واحد مستقل]، اما هر دو با هم نمی‌شود.»  

© The Independent

بیشتر از تکنولوژی